Introdução

Testes multivariados versus univariados

👉 Os testes de hipóteses em um contexto multivariado são muito mais complexos do que num contexto univariado.

Considerando a distribuição normal, temos

  • no caso univariado, uma média (\(\mu\)) e uma variância (\(\sigma^2\)), totalizando dois parâmetros,

  • no caso \(p\)-variado, \(p\) médias, \(p\) variâncias e \(\left( \begin{array}{c} p \\ 2 \end{array} \right)\) covariâncias, totalizando

\[p + p +\left( \begin{array}{c} p \\ 2 \end{array} \right) = \dfrac{1}{2} p(p+3)\]

parâmetros.

Testes multivariados versus univariados

Por exemplo, para \(p = 10\), temos

\[\dfrac{1}{2} p(p+3) = \dfrac{10(10+3)}{2} = \dfrac{130}{2} = 65\]

parâmetros, para cada um dos quais uma hipótese poderia ser formulada.

Além disso, podemos estar interessados em testar hipóteses sobre subconjuntos desses parâmetros, ou ainda, sobre funções deles.

Testes multivariados versus univariados

🤔 Por que utilizar testes multivariados ao invés de testes univariados?

  1. Usar \(p\) testes univariados inflaciona o erro tipo I, \(\alpha\), enquanto o teste multivariado preserva o valor exato de \(\alpha\).
  • Por exemplo, se fizermos \(p = 10\) testes univariados ao nível \(\alpha = 0,05\), a probabilidade de pelo menos uma falsa rejeição é maior que 0,05.
    • Se as variáveis forem independentes, teríamos, sob \(H_0\):

\[\begin{eqnarray*} P(\text{pelo menos uma rejeição}) &=& 1 - P(\text{todos os 10 testes não rejeitarem } H_0) \\ &=& 1 - (0,95)^{10} = 0,40 \end{eqnarray*}\]

👉 Se as variáveis não forem independentes, teríamos \(0,05 < \alpha < 0,40\)

Testes multivariados versus univariados

🤔 Por que utilizar testes multivariados ao invés de testes univariados?

  1. Os testes univariados ignoram completamente as correlações entre as variáveis.
  1. Os testes multivariados são mais poderosos em muitos casos.
  • Poder de um teste: probabilidade de rejeitar \(H_0\), quando esta é realmente falsa.
  1. Muitos testes multivariados envolvendo médias têm como subproduto a construção de uma combinação linear das variáveis que revela mais sobre como as variáveis se unem para rejeitar a hipótese.

Teste para \(\mathbf{\mu}\) com \(\mathbf{\Sigma}\) conhecido

Num primeiro momento, vamos revisar o caso univariado de se testar a média, \(\mu\), de uma população com \(\sigma^2\) conhecido.

Sejam as seguintes hipóteses:

\[H_0: \mu = \mu_0 \text{ vs. } H_a: \mu \neq \mu_0\]

Considere uma amostra aleatória \(X\) de tamanho \(n\), de forma que \(X \sim N(\mu, \sigma^2)\), com \(\sigma^2\) conhecido. Uma estatística de teste apropriada para este tipo de situação é

\[z = \dfrac{\bar{x}- \mu_0}{\dfrac{\sigma}{\sqrt{n}}} \sim N(0,1)\]

Teste para \(\mathbf{\mu}\) com \(\mathbf{\Sigma}\) conhecido

Em que \(\bar{x} = \dfrac{\displaystyle{\sum_{i=1}^n x_i}}{n}\). Para um nível \(\alpha\) de significância, rejeitamos \(H_0\) se \(|z| \geq z_{\frac{\alpha}{2}}\).

Equivalentemente, podemos usar \(z^2\) que segue uma distribuição \(\chi^2_1\) e rejeitamos a hipótese nula \(H_0\) se \(z^2 \geq \chi^2_1(\alpha)\).

Se \(n\) for grande, o Teorema Central do Limite garante que \(z\) é aproximadamente normal, mesmo que as observações não sejam normais.

Teste para \(\mathbf{\mu}\) com \(\mathbf{\Sigma}\) conhecido

Considere agora um vetor aleatório \(\mathbf{x} = \{X_1, X_2, \cdots, X_p\}^t \sim N_p(\mathbf{\mu}, \mathbf{\Sigma})\), com vetor de médias \(\mathbf{\mu} = \{\mu_1, \mu_2, \cdots, \mu_p\}^t\) e matriz de variâncias e covariâncias

\[\mathbf{\Sigma} = \begin{bmatrix} \sigma_{11} & \sigma_{12} & \cdots & \sigma_{1p}\\ \sigma_{21} & \sigma_{22} & \cdots & \sigma_{2p}\\ \vdots & \vdots & \ddots & \vdots\\ \sigma_{p1} & \sigma_{p2} & \cdots & \sigma_{pp} \end{bmatrix}\]

Teste para \(\mathbf{\mu}\) com \(\mathbf{\Sigma}\) conhecido

Queremos testar as seguintes hipóteses:

\[H_0: \mathbf{\mu} = \mathbf{\mu}_0 \text{ vs. } H_a: \mathbf{\mu} \neq \mathbf{\mu}_0\]

Podemos generalizar a estatistica \(z^2\) do teste univariado da seguinte forma:

\[Z^2 = n(\mathbf{\bar{x}}-\mathbf{\mu}_0)^t\mathbf{\Sigma}^{-1}(\mathbf{\bar{x}}-\mathbf{\mu}_0)\]

Se \(H_0\) é verdadeira, \(Z^2 \sim \chi^2_p\) e, portanto, rejeitamos a hipótese nula \(H_0\) se \(Z^2 > \chi^2_p(\alpha)\)

Teste para \(\mathbf{\mu}\) com \(\mathbf{\Sigma}\) conhecido

Exemplo: Considere uma amostra aleatória de tamanho \(n = 20\), com vetor de médias \(\mathbf{\bar{x}} = (71,45;164,7)^t\), de uma população normal bivariada cuja matriz de variâncias e covariâncias seja dada por

\[\mathbf{\Sigma} = \begin{bmatrix} 20 & 100 \\ 100 & 1000\\ \end{bmatrix}\]

Suponha que desejássemos testar as seguintes hipóteses

\[H_0: \mathbf{\mu} = [70, 170]^t \text{ vs. } H_a: \mathbf{\mu} \neq [70, 170]^t\]

Teste para \(\mathbf{\mu}\) com \(\mathbf{\Sigma}\) conhecido

Temos que,

\[\begin{eqnarray*} Z^2 &=& n(\mathbf{\bar{x}}-\mathbf{\mu}_0)^t\mathbf{\Sigma}^{-1}(\mathbf{\bar{x}}-\mathbf{\mu}_0) \\ &=& 20 \times \left[ \begin{array}{c} 71,45 - 70 & 164,7 - 170 \end{array} \right]\begin{bmatrix} 20 & 100 \\ 100 & 1000\\ \end{bmatrix}^{-1}\left[ \begin{array}{c} 71,45 - 70 \\ 164,7 - 170 \end{array} \right] \\ &=& 20 \times \left[ \begin{array}{c} 1,45 & -5,30 \end{array} \right]\begin{bmatrix} 0,1 & -0,01 \\ -0,01 & 0,002\\ \end{bmatrix}\left[ \begin{array}{c} 1,45 \\ -5,30 \end{array} \right] = 8,4036 \end{eqnarray*} \]

Usando um nível de significância \(\alpha = 0,05\), temos que \(\chi_2^2(0,05) = 5,991\) e, portanto, rejeitamos a hipótese \(H_0: \mathbf{\mu} = [70, 170]^t\), uma vez que \(Z^2 = 8,4036 > 5,991\).